将所有的xml文件中的链接提取到txt文件中存放

2023-05-08
238次阅读
没有评论

由于我需要为搜狗提交做准备,直接读取xml文件容易搞乱自己的大脑,所以写了一个php文件,将所有的xml链接全部提取到txt文件中。

之前的网站已经有18条xml文件了,每个xml文件中有5000条网站的url,所以我现在需要做的是将所有的url全部存放到txt文件中,接下来的提交到搜狗只需要从txt文件中读取url就行。

将所有的xml文件中的链接提取到txt文件中存放

说的太复杂我自己都懵,直接开始吧。

代码如下:

<?php
header('Content-Type:text/html;charset=utf-8');
if(!$_GET['xml']){
    die("data error");
}else{
$xmldata =file_get_contents($_GET['xml']);
$xmlstring = simplexml_load_string($xmldata,'SimpleXMLElement',LIBXML_NOCDATA);
$value_array = json_decode(json_encode($xmlstring),true);
$url = [];
$fp = fopen('all_siteurl.txt', 'a+');

for ($i =0;$i < count($value_array['url']);$i++){
    // echo $value_array['url'][$i]['loc']."<br/>";
    fwrite($fp, $value_array['url'][$i]['loc'] . PHP_EOL);
}
// echo '<pre>';
// print_r($url);
fclose($fp);
die('success.');
}

执行方式如下:

访问:/data/txt.php?xml=/sitemap_01.xml

执行的速度很快,5000条也就1s的时间,由于我这个是标号的,所以直接替换后面的01为02则进行下一个xml文件。一直到18结束,这样八九万的数据就全部写入到一个统一的txt文件了,也就是上面代码中的:all_siteurl.txt文件,下一篇文章读取并提交到搜狗也是这个文件。

敬请看我下一篇文章:

[post id="2209"]

好了,这个就到这里了,很简单,代码都是复用性很高的,当做一个小工具使用还是挺不错的。

正文结束
自由书生
版权声明:本站原创文章,由 自由书生 于2023-05-08发表,共计941字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
评论(没有评论)
验证码